vineri, iulie 19, 2024
23 C
București

Devino un membru al comunității noastre

O mulțime de oameni ne urmăresc deja. Alătură-te și tu lor pentru a fi informat și a nu rata noutățile zilnice.

Ne aflăm în pericol de a pierde controlul asupra sistemelor AI. Extincția omenirii – o posibilitate din perspectiva Google și OpenAI.

Printr-o scrisoare deschisă, 11 actuali și foști angajați ai companiilor Google și OpenAI atrag atenția asupra faptului că o parte din companiile din industria inteligenței artificiale obstrucționează, din motive financiare, o monitorizare adecvată a evoluției acestui domeniu, existând chiar și pericolul „de a pierde controlul asupra sistemelor AI autonome, care ar putea duce la extincția oamenilor”. 

AI

Cei 11 specialiști, care au lucrat sau încă lucrează pentru Google și OpenAI, și-au unit forțele pentru a transmite un mesaj de avertizare cu privire la practicile marilor companii de inteligență artificială, acuzându-le că împiedică o supraveghere corespunzătoare a dezvoltării AI, punând interesele financiare mai presus de siguranța și etica în domeniu. 

„Nu credem că structurile proprii de guvernanță corporativă sunt suficiente pentru supravegherea inteligenței artificiale”, iar riscurile generate de lipsa de reglementare a acesteia „acoperă o paletă largă, de la răspândirea dezinformării până la pierderea controlului asupra sistemelor AI autonome, care ar putea duce la exctinția oamenilor” subliniază cei 11 specialiști, oferind și exemple concrete de generatoare de imagini aparținând companiilor OpenAI sau Microsoft, care au fost utilizate pentru crearea de conținut fals în scopuri electorale, în pofida politicilor declarate de aceste companii împotriva unor astfel de practici, conform Biziday.ro.  

Semnatarii scrisorii fac apel la companiile din domeniul inteligenței artificiale să le ofere angajaților posibilitatea de a semnala riscurile identificate și să nu aplice clauzele de confidențialitate incluse în contractele de muncă, care le restricționează dreptul de a discuta despre potențialele probleme întâlnite în procesul de dezvoltare a sistemelor AI. 

La finalul documentului, cei 11 experți includ și o serie de legături și exemple concrete în care instrumentele de inteligență artificială au fost folosite pentru crearea de conținut ilegal, în ciuda  obligațiilor asumate de companiile care le administrează de a preveni astfel de situații.

Semnatarii scrisorii deschise subliniază riscul major pe care îl reprezintă lipsa unei supravegheri eficiente a evoluției inteligenței artificiale, mai exact: 

“Suntem actuali și foști angajați ai companiilor avansate în dezvoltarea inteligenței artificiale și credem în potențialul tehnologiei AI de a oferi umanității beneficii fără precedent.

Înțelegem, de asemenea, riscurile grave pe care le prezintă aceste tehnologii. Aceste riscuri variază de la consolidarea în continuare a inegalităților existente în societate, până la manipulare și dezinformare, dar și până la riscul pierderii controlului asupra sistemelor AI autonome care ar putea duce la dispariția oamenilor. Companiile AI au recunoscut ele însele aceste riscuri, la fel ca și guvernele din întreaga lume, precum și o serie de alți experți în AI.

Sperăm că aceste riscuri pot fi atenuate în mod adecvat cu îndrumări suficiente din partea comunității științifice, a factorilor de decizie și a publicului. Cu toate acestea, companiile de inteligență artificială au puternice motivații financiare pentru a evita o supraveghere eficientă și nu credem că structurile interne de guvernanță corporativă sunt suficiente pentru a schimba acest lucru.

Companiile de inteligență artificială dețin informații substanțiale care nu sunt publice despre capacitățile și limitările sistemelor lor, despre adecvarea măsurilor lor de protecție și despre nivelurile de risc ale acestora. Cu toate acestea, ele au în prezent doar slabe obligații de a împărtăși aceste informații guvernelor și nu au nicio obligație de a face publice aceste riscuri. Nu credem că toate companiile din domeniu vor dori, în mod voluntar, să le împărtășească.

Atâta timp cât nu există o supraveghere guvernamentală eficientă a acestor corporații, actualii și foștii angajați sunt printre puținii oameni care pot atrage public atenția asupra riscurilor. Cu toate acestea, acordurile ample de confidențialitate ne împiedică să ne exprimăm preocupările. Protecția legală a avertizorilor de integritate este insuficientă, deoarece se concentrează pe activități ilegale, în timp ce multe dintre riscurile care ne preocupă nu sunt încă nicicum reglementate. Unii dintre noi se tem în mod rezonabil de diferite forme de represalii, având în vedere istoria unor astfel de cazuri în industrie. Nu suntem primii care întâlnim sau vorbim despre aceste probleme.

Prin urmare, solicităm companiilor avansate în dezvoltarea inteligenței artificiale să se angajeze în respectarea următoarelor principii:

  1. Compania nu va încheia sau nu va aplica niciun acord care interzice criticile sau așa-numitele denigrări la adresa companiei pentru preocupări legate de riscuri și nici nu va retalia pentru criticile legate de riscuri prin invocarea daunelor financiare;
  2. Compania va facilita un proces anonim verificabil pentru angajații actuali și foști, pentru a putea sesiza probleme legate de riscurile AI către consiliul director al companiei, autorităților de reglementare sau unei organizații independente adecvate, cu expertiză relevantă;
  3. Compania va sprijini o cultură organizațională a criticii deschise și va permite angajaților actuali și foști să exprime preocupări legate de riscurile tehnologiilor sale către publicul larg, către consiliul de administrație al companiei, autorităților de reglementare sau unei organizații independente adecvate cu expertiză relevantă, atâta timp cât secretele comerciale și alte interese legate de proprietate intelectuală sunt protejate în mod corespunzător;
  4. Compania nu va retalia împotriva foștilor și actualilor angajați care fac publice informații confidențiale legate de riscuri, după ce alte proceduri de sesizare a acestora au eșuat. Acceptăm că orice efort de a raporta preocupările legate de risc ar trebui să evite eliberarea de informații confidențiale în mod inutil. Prin urmare, odată ce există o procedură adecvată pentru sesizarea anonimă a preocupărilor către consiliul companiei, către autoritățile de reglementare sau o organizație independentă, acceptăm că preocupările ar trebui sesizate inițial printr-un astfel de proces. Cu toate acestea, în absența unor astfel de proceduri, actualii și foștii angajați ar trebui să-și păstreze libertatea de a-și raporta public preocupările [legate de dezvoltarea sistemelor AI].

Semnat de (ordine alfabetică):
Jacob Hilton, fost angajat OpenAI
Daniel Kokotajlo, fost angajat OpenAI
Ramana Kumar, fost angajat Google DeepMind
Neel Nanda, în prezent, Google DeepMind, anterior Anthropic
William Saunders, fost angajat OpenAI
Carroll Wainwright, fost angajat OpenAI
Daniel Ziegler, fost angajat OpenAI
Anonim, în prezent angajat OpenAI
Anonim, în prezent angajat OpenAI
Anonim, în prezent angajat OpenAI
Anonim, în prezent angajat OpenAI
Anonim, fost angajat OpenAI
Anonim, fost angajat OpenAI

Avizat de (ordine alfabetică):
Yoshua Bengio
Geoffrey Hinton”.
Stuart Russell
4 iunie 2024″.

Barry, the Legal Badger
Barry, the Legal Badgerhttps://legalbadger.org
Barry the Legal Badger este eroul nostru legal și de încredere. Cu o combinație unică de cunoștințe juridice profunde și un simț al umorului fermecător, Barry face ca subiectele complicate să devină simple și accesibile. De la drept civil la drept penal, articolele sale sunt gândite și redactate în așa fel încât orice persoană să parcurgă cu ușurință toate aspectele juridice relevante. Alăturați-vă lui Barry pentru o călătorie educativă prin lumea legislativă, unde fiecare problemă juridică își găsește soluția!

Urmărește-ne și pe rețelele de socializare!

212,821FaniÎmi place
6,079CititoriConectați-vă

Ultimele Știri

POS obligatoriu 2024 PFA. Proiect de lege

Un nou proiect de lege elaborat recent de Ministerul...

Milioane de euro pentru românii afectați de vaccinul COVID?

Recent, a fost înregistrat la Senat, spre dezbatere, un...

Comisia Europeană analizează reducerea taxelor vamale pentru mașinile electrice BMW și Volkswagen produse în China

Comisia Europeană analizează posibilitatea diminuării taxelor vamale pentru autovehiculele...

Caz șocant în Hamburg. Weekend în închisoare pentru insultă, suspendare pentru viol

Un caz din Germania a stârnit indignare publică, punând...

Devino un membru al comunității noastre

Te-ar putea interesa

Guvernul deschide calea pentru implementarea inteligenței artificiale în instituțiile publice

În cadrul ședinței de guvern, prim-ministrul Marcel Ciolacu a anunțat aprobarea unui document strategic privind inteligența artificială (IA) la nivel național. Acest cadru va servi drept fundament pentru atragerea de fonduri europene destinate implementării...

Rețele de socializare considerate un pericol pentru minori. Măsuri stricte pentru protejarea acestora.

Statul New York este pe punctul de a introduce o nouă legislație menită să reglementeze modul în care platformele de social media interacționează cu minorii, interzicând utilizarea algoritmilor pentru a recomanda conținut pe baza...

Ai pierdut permisul de conducere sau este deteriorat? Poți obține duplicatul acestuia online, din iunie

Începând cu luna iunie, cetățenii români care s-au confruntat cu pierderea permisului de conducere sau deteriorarea acestuia au posibilitatea de a solicita un duplicat prin intermediul unui serviciu online dedicat. Cu toate acestea, pentru...