joi, iulie 4, 2024

Ne aflăm în pericol de a pierde controlul asupra sistemelor AI. Extincția omenirii – o posibilitate din perspectiva Google și OpenAI.

Printr-o scrisoare deschisă, 11 actuali și foști angajați ai companiilor Google și OpenAI atrag atenția asupra faptului că o parte din companiile din industria inteligenței artificiale obstrucționează, din motive financiare, o monitorizare adecvată a evoluției acestui domeniu, existând chiar și pericolul „de a pierde controlul asupra sistemelor AI autonome, care ar putea duce la extincția oamenilor”. 

AI

Cei 11 specialiști, care au lucrat sau încă lucrează pentru Google și OpenAI, și-au unit forțele pentru a transmite un mesaj de avertizare cu privire la practicile marilor companii de inteligență artificială, acuzându-le că împiedică o supraveghere corespunzătoare a dezvoltării AI, punând interesele financiare mai presus de siguranța și etica în domeniu. 

„Nu credem că structurile proprii de guvernanță corporativă sunt suficiente pentru supravegherea inteligenței artificiale”, iar riscurile generate de lipsa de reglementare a acesteia „acoperă o paletă largă, de la răspândirea dezinformării până la pierderea controlului asupra sistemelor AI autonome, care ar putea duce la exctinția oamenilor” subliniază cei 11 specialiști, oferind și exemple concrete de generatoare de imagini aparținând companiilor OpenAI sau Microsoft, care au fost utilizate pentru crearea de conținut fals în scopuri electorale, în pofida politicilor declarate de aceste companii împotriva unor astfel de practici, conform Biziday.ro.  

Semnatarii scrisorii fac apel la companiile din domeniul inteligenței artificiale să le ofere angajaților posibilitatea de a semnala riscurile identificate și să nu aplice clauzele de confidențialitate incluse în contractele de muncă, care le restricționează dreptul de a discuta despre potențialele probleme întâlnite în procesul de dezvoltare a sistemelor AI. 

La finalul documentului, cei 11 experți includ și o serie de legături și exemple concrete în care instrumentele de inteligență artificială au fost folosite pentru crearea de conținut ilegal, în ciuda  obligațiilor asumate de companiile care le administrează de a preveni astfel de situații.

Semnatarii scrisorii deschise subliniază riscul major pe care îl reprezintă lipsa unei supravegheri eficiente a evoluției inteligenței artificiale, mai exact: 

“Suntem actuali și foști angajați ai companiilor avansate în dezvoltarea inteligenței artificiale și credem în potențialul tehnologiei AI de a oferi umanității beneficii fără precedent.

Înțelegem, de asemenea, riscurile grave pe care le prezintă aceste tehnologii. Aceste riscuri variază de la consolidarea în continuare a inegalităților existente în societate, până la manipulare și dezinformare, dar și până la riscul pierderii controlului asupra sistemelor AI autonome care ar putea duce la dispariția oamenilor. Companiile AI au recunoscut ele însele aceste riscuri, la fel ca și guvernele din întreaga lume, precum și o serie de alți experți în AI.

Sperăm că aceste riscuri pot fi atenuate în mod adecvat cu îndrumări suficiente din partea comunității științifice, a factorilor de decizie și a publicului. Cu toate acestea, companiile de inteligență artificială au puternice motivații financiare pentru a evita o supraveghere eficientă și nu credem că structurile interne de guvernanță corporativă sunt suficiente pentru a schimba acest lucru.

Companiile de inteligență artificială dețin informații substanțiale care nu sunt publice despre capacitățile și limitările sistemelor lor, despre adecvarea măsurilor lor de protecție și despre nivelurile de risc ale acestora. Cu toate acestea, ele au în prezent doar slabe obligații de a împărtăși aceste informații guvernelor și nu au nicio obligație de a face publice aceste riscuri. Nu credem că toate companiile din domeniu vor dori, în mod voluntar, să le împărtășească.

Atâta timp cât nu există o supraveghere guvernamentală eficientă a acestor corporații, actualii și foștii angajați sunt printre puținii oameni care pot atrage public atenția asupra riscurilor. Cu toate acestea, acordurile ample de confidențialitate ne împiedică să ne exprimăm preocupările. Protecția legală a avertizorilor de integritate este insuficientă, deoarece se concentrează pe activități ilegale, în timp ce multe dintre riscurile care ne preocupă nu sunt încă nicicum reglementate. Unii dintre noi se tem în mod rezonabil de diferite forme de represalii, având în vedere istoria unor astfel de cazuri în industrie. Nu suntem primii care întâlnim sau vorbim despre aceste probleme.

Prin urmare, solicităm companiilor avansate în dezvoltarea inteligenței artificiale să se angajeze în respectarea următoarelor principii:

  1. Compania nu va încheia sau nu va aplica niciun acord care interzice criticile sau așa-numitele denigrări la adresa companiei pentru preocupări legate de riscuri și nici nu va retalia pentru criticile legate de riscuri prin invocarea daunelor financiare;
  2. Compania va facilita un proces anonim verificabil pentru angajații actuali și foști, pentru a putea sesiza probleme legate de riscurile AI către consiliul director al companiei, autorităților de reglementare sau unei organizații independente adecvate, cu expertiză relevantă;
  3. Compania va sprijini o cultură organizațională a criticii deschise și va permite angajaților actuali și foști să exprime preocupări legate de riscurile tehnologiilor sale către publicul larg, către consiliul de administrație al companiei, autorităților de reglementare sau unei organizații independente adecvate cu expertiză relevantă, atâta timp cât secretele comerciale și alte interese legate de proprietate intelectuală sunt protejate în mod corespunzător;
  4. Compania nu va retalia împotriva foștilor și actualilor angajați care fac publice informații confidențiale legate de riscuri, după ce alte proceduri de sesizare a acestora au eșuat. Acceptăm că orice efort de a raporta preocupările legate de risc ar trebui să evite eliberarea de informații confidențiale în mod inutil. Prin urmare, odată ce există o procedură adecvată pentru sesizarea anonimă a preocupărilor către consiliul companiei, către autoritățile de reglementare sau o organizație independentă, acceptăm că preocupările ar trebui sesizate inițial printr-un astfel de proces. Cu toate acestea, în absența unor astfel de proceduri, actualii și foștii angajați ar trebui să-și păstreze libertatea de a-și raporta public preocupările [legate de dezvoltarea sistemelor AI].

Semnat de (ordine alfabetică):
Jacob Hilton, fost angajat OpenAI
Daniel Kokotajlo, fost angajat OpenAI
Ramana Kumar, fost angajat Google DeepMind
Neel Nanda, în prezent, Google DeepMind, anterior Anthropic
William Saunders, fost angajat OpenAI
Carroll Wainwright, fost angajat OpenAI
Daniel Ziegler, fost angajat OpenAI
Anonim, în prezent angajat OpenAI
Anonim, în prezent angajat OpenAI
Anonim, în prezent angajat OpenAI
Anonim, în prezent angajat OpenAI
Anonim, fost angajat OpenAI
Anonim, fost angajat OpenAI

Avizat de (ordine alfabetică):
Yoshua Bengio
Geoffrey Hinton”.
Stuart Russell
4 iunie 2024″.

Comentarii

LĂSAȚI UN MESAJ

Vă rugăm să introduceți comentariul dvs.!
Introduceți aici numele dvs.

Te-ar putea interesa

Despre autor

Barry, the Legal Badger
Barry, the Legal Badgerhttps://legalbadger.org
Barry the Legal Badger este eroul nostru legal și de încredere. Cu o combinație unică de cunoștințe juridice profunde și un simț al umorului fermecător, Barry face ca subiectele complicate să devină simple și accesibile. De la drept civil la drept penal, articolele sale sunt gândite și redactate în așa fel încât orice persoană să parcurgă cu ușurință toate aspectele juridice relevante. Alăturați-vă lui Barry pentru o călătorie educativă prin lumea legislativă, unde fiecare problemă juridică își găsește soluția!

Urmărește-ne și pe Facebook!

Fii mereu la curent! Urmărește-ne pentru noutăți exclusive și conținut inspirațional. Dă-ne un 'Like' acum!

Articole Populare