Companiile de inteligenţă artificială, între care OpenAI, Google, parte a grupului Alphabet, şi Meta Platforms şi-au luat angajamente voluntare faţă de Casa Albă de a implementa măsuri precum marcarea conţinutului generat de inteligenţă artificială, pentru a ajuta la creşterea siguranţei tehnologiei, a spus administraţia Biden, citată de Reuters. Companiile, care includ şi Anthropic, Inflection, Amazon.com şi Microsoft, care susţine OpenAI.O, s-au angajat să testeze temeinic sistemele înainte de a le lansa şi să împărtăşească informaţii despre cum să reducă riscurile şi să investească în securitatea cibernetică. Mişcarea este văzută ca o victorie pentru efortul administraţiei Biden de a reglementa tehnologia care a cunoscut o creştere a investiţiilor şi a popularităţii consumatorilor. ”Salutăm iniţiativa preşedintelui în reunirea industriei tehnologice pentru a stabili paşi concreţi care vor face AI mai sigură şi mai benefică pentru public”, a spus Microsoft într-o postare pe blogl.Deoarece AI generativă, care utilizează date pentru a crea conţinut nou, cum ar fi proza de tip uman a ChatGPT, a devenit extrem de populară în acest an, parlamentarii din întreaga lume au început să se gândească la cum să atenueze pericolele tehnologiei emergente pentru securitatea naţională şi economie. SUA sunt în urmă faţă de UE în abordarea reglementării inteligenţei artificiale.În iunie, parlamentarii UE au convenit asupra unui set de reguli în care sisteme precum ChatGPT ar trebui să dezvăluie conţinutul generat de inteligenţă artificială, să ajute la distingerea aşa-numitelor imaginile deep-face de cele reale şi să asigure garanţii împotriva conţinutului ilegal.Liderul majorităţii Senatului SUA, Chuck Schumer, a cerut în iunie ”o legislaţie cuprinzătoare” pentru a avansa şi a asigura garanţii privind inteligenţa artificială.Congresul ia în considerare un proiect de lege care ar impune ca reclamele politice să dezvăluie dacă AI a fost folosită pentru a crea imagini sau alt conţinut.Ca parte a efortului, cele şapte companii s-au angajat să dezvolte un sistem care să ”marcheze” toate formele de conţinut, de la text, imagini, audio, până la videoclipuri generate de AI, astfel încât utilizatorii să ştie când a fost folosită tehnologia.Această marcare, încorporată în conţinut într-o manieră tehnică, probabil că va facilita utilizatorilor să detecteze imagini sau audio deep-fake care pot, de exemplu, să arate violenţă care nu a avut loc, să creeze o înşelătorie mai bună sau să distorsioneze o fotografie a unui politician pentru a pune persoana într-o lumină nemăgulitoare.Nu este clar cum va fi evidenţiat marcajul în partajarea informaţiilor.Companiile s-au angajat, de asemenea, să se concentreze pe protejarea confidenţialităţii utilizatorilor, pe măsură ce AI se dezvoltă, şi pe asigurarea faptului că tehnologia este lipsită de părtinire şi nu este utilizată pentru a discrimina grupurile vulnerabile.Alte angajamente includ dezvoltarea de soluţii AI la probleme ştiinţifice precum cercetarea medicală şi atenuarea schimbărilor climatice.(sursa:news.ro)

Recomandările redacției