#artificiala

Etica inteligentei artificiale

Etica în domeniul inteligenței artificiale (AI) se referă la principiile și practicile morale care ghidează dezvoltarea și utilizarea AI. Acest domeniu a devenit din ce în ce mai important odată cu expansiunea rapidă a tehnologiilor AI în diferite aspecte ale vieții cotidiene. Etica AI încearcă să răspundă la întrebări complexe legate de impactul AI asupra societății, drepturilor individuale, securității și intimității, echității și incluziunii, precum și a responsabilității și transparenței.

Principalele aspecte ale eticii AI includ:

  1. Transparența și Explicabilitatea: AI trebuie să fie transparentă și explicabilă, astfel încât utilizatorii să înțeleagă cum funcționează și pe baza căror date ia decizii.

  2. Echitate și Nepristrinicie: AI trebuie să fie dezvoltată și utilizată în moduri care previn discriminarea și biasul, asigurând echitate în tratamentul tuturor grupurilor de indivizi.

  3. Respectarea Intimității și a Confidențialității: Protecția datelor personale și a intimității utilizatorilor este esențială, având în vedere cantitatea mare de date colectate și procesate de sistemele AI.

  4. Responsabilitate și Responsabilizare: Dezvoltatorii și utilizatorii de AI trebuie să fie responsabili pentru impactul tehnologiei lor asupra indivizilor și societății.

  5. Siguranța și Securitatea: Asigurarea că sistemele AI sunt sigure și nu prezintă riscuri nejustificate pentru oameni sau mediu.

  6. Beneficiul Social și Umanitar: Utilizarea AI ar trebui să vizeze promovarea bunăstării umane și să contribuie la rezolvarea problemelor societale.

  7. Sustenabilitate și Protecția Mediului: AI ar trebui să fie dezvoltată și utilizată în moduri care sunt sustenabile și nu dăunează mediului.

Aceste principii sunt esențiale pentru a asigura că dezvoltarea și utilizarea AI sunt în concordanță cu valorile umane fundamentale și că tehnologia servește binele comun. Etica AI este un domeniu în continuă evoluție, având în vedere rapiditatea schimbărilor tehnologice și impactul acestora asupra societății.

 

Bias se referă la o înclinație sau o perspectivă subiectivă, adesea caracterizată printr-o judecată personală și uneori neracională. Este o formă de prejudecată sau tendință care poate conduce la abateri de la o valoare așteptată sau la erori sistematice în procesul de luare a deciziilor. Biasul se manifestă frecvent ca o preferință sau o inclinație care inhibă considerarea obiectivă a unei situații sau probleme. Termenul poate avea și alte semnificații în diferite contexte, dar utilizarea principală se referă la parțialitate sau prejudecată.

Etica AI Read More »

Inteligența Artificială va aduce o creștere cu 14% a economiei globale până în 2030. Cum pot capitaliza companiile beneficiile AI, cu riscuri minime?

un articol de Mircea Bozga, Partener PwC România

Tehnologiile bazate pe inteligență artificială (AI) ar putea genera o creștere economică globală de 14% (15,7 trilioane de dolari) până în 2030, potrivit unui studiu realizat de PwC, ca urmare a creșterii productivității din automatizarea proceselor. De la asistenții personali ai telefoanelor mobile la tot ce înseamnă personalizare în interacțiunile comerciale și detectarea fraudelor și de la automatizarea unor procese și activități la strategii de lansare pe piață a noilor produse, AI va atinge aproape fiecare aspect al vieții noastre.

Și dacă în prezent, inteligența artificială automatizează sarcini care necesită și implicare umană, cercetătorii și companiile de tehnologie din întreaga lume se străduiesc să obțină o inteligență artificială autonomă, care să nu necesite intervenția umană pentru a lua decizii extrem de complexe. Acest lucru va însemna noi modele de afaceri, fie că este vorba de servicii financiare, sănătate, energie, industrie sau media și divertisment.

Însă, odată cu numeroasele beneficii descrise deja de literatura de specialitate, adoptarea inteligenței artificiale generative aduce atât riscuri la nivel de utilizare a aplicațiilor software  – cum ar fi riscul de operare (de exemplu erori, operare instabilă), de securitate (fraudă, atacuri cibernetice), riscuri legate de controlul acesteia (lipsa supravegherii umane, lipsa responsabilității clare) – cât și la nivel de organizație/societale – riscul afacerii (reputație, performanță financiară, juridic și conformitate, încălcarea drepturilor intelectuale), risc economic (pierderea locurilor de muncă, polarizare) sau riscul societal în sine (manipulare și dezinformare, supraveghere și acte de război)

Modul în care vom evalua credibilitatea informațiilor din jurul nostru se va schimba și la fel și modul în care vom lua deciziile – imaginile false, informațiile eronate sau inexacte, încălcarea drepturilor de autor, sau modurile în care vor fi colectate datele confidențiale sau cu caracter personal vor fi mai multe și mai complexe decât cele cu care suntem obișnuiți astăzi. În același timp, viteza luării deciziilor, sprijinită de digitalizare și îmbunătățirea structurilor de date, va crește semnificativ.

Se dezvoltă mai multe reglementări în domeniu

În prezent cea mai cunoscută reglementare în vigoare, care vizează și partea de AI este Regulamentul General privind Protecția Datelor (GDPR), care stabilește însă doar modul de colectare, stocare, procesare și transfer al datelor cu caracter personal. Pentru sectorul financiar, se mai adaugă alte două, respectiv cerințele Băncii Centrale Europene, care impun entităților supravegheate să pună în aplicare măsuri eficiente de gestionare a riscurilor în ceea ce privește terții și DORA, care vizează asigurarea rezilienței operaționale și securitatea cibernetică în sectorul financiar european pentru a fi capabil să reziste în cazul unor perturbări operaționale grave.

În 2024, este așteptat actul UE privind inteligența artificială, care va reglementa dezvoltarea și implementarea inteligenței artificiale în UE. Astfel, furnizorii de inteligență artificială trebuie să evalueze și să atenueze riscurile, să respecte cerințele de proiectare, de informare și de mediu și să se înregistreze în baza de date a UE. Inteligența artificială utilizată în furnizarea de servicii financiare va fi clasificată ca fiind de risc ridicat.

Iar la stadiul de propunere se află Directiva privind răspunderea civilă (AILD). Prin urmare, în cazul în care un sistem de inteligență artificială provoacă un prejudiciu unei persoane, dezvoltatorii unui astfel de sistem pot fi trași la răspundere pentru aceste prejudicii.

Cum pot companiile să valorifice inteligența artificială fără a pune în pericol încrederea clienților, acționarilor și investitorilor? Câteva măsuri propuse de către PwC:

Riscurile asociate inteligenței artificiale nu sunt încă un subiect în majoritatea consiliilor de administrație – răspunsurile executivilor din companiile intervievate în PwC’s 2023 Trust Survey au prioritizat riscurile asociate cu inteligența artificială cu mult sub alte amenințări cum ar fi cele de natură cibernetică (încălcarea securității datelor sau un atac ransomware), cel mai probabil datorită gradului incipient de dezvoltare al acestei tehnologii. Acest lucru se va schimba însă in curând și de aceea, detaliem mai jos câteva recomandări pe care administratorii sau executivii le pot utiliza în pregătirea organizațiilor pe care le conduc:

Stabiliți priorități bazate pe riscuri. Unele riscuri generate de inteligența artificială sunt mai importante decât altele. Ajustați sau stabiliți reguli astfel încât echipele de guvernanță, transformare digitală dar și de conformitate, risc și audit intern să acorde o atenție sporită celor mai mari riscuri.

Îmbunătățirea protecției cibernetice, a datelor și a confidențialității. Actualizați protocoalele de securitate cibernetică, guvernanță a datelor și confidențialitate pentru a contribui la atenuarea riscurilor ca inteligența artificială generativă a hackerilor să aibă acces la date private, să expună identități sau să realizeze atacuri cibernetice. Implementați un proces de analiză al modului în care furnizorii aplicațiilor și site-urile utilizate de către organizația dumneavoastră, și care folosesc inteligența artificială generativă, colectează, stochează și transferă datele confidențiale sau importante pentru activitatea companiei..

Abordarea riscului de ne-reglementare. În cazul unor sisteme de inteligență artificială generativă, „modelul de bază” utilizat pentru a produce rezultate nu este dezvăluit sau ușor accesibil utilizatorilor, ceea ce face imposibilă deslușirea motivelor pentru care un sistem a generat anumite rezultate. Identificați aceste sisteme și luați în considerare ce practici pot sprijini corectitudinea, acuratețea și conformitatea lor.

Pregătirea angajaților implicați pentru utilizarea și supravegherea responsabilă. Învățați-i pe angajați noțiunile de bază despre cum funcționează inteligența artificială generativă – și, de asemenea, când să o utilizați și când nu. De asemenea, aceștia vor trebui să învețe când și cum să verifice sau să modifice rezultatele. Oferiți echipelor de conformitate și juridice abilități și aplicatii IT pentru a identifica încălcările proprietății intelectuale și alte riscuri conexe, consolidand liniile directoare de guvernanță a AI și alte structuri de guvernanță (de exemplu, confidențialitate și securitate cibernetică) care pot fi deja în vigoare.

Monitorizați părțile terțe. Aflați care dintre furnizorii dvs. furnizează conținut sau servicii care utilizează inteligența artificială generativă, cum gestionează riscurile aferente și care ar putea fi posibila dvs. expunere.

Adăugați supravegherea automată. Luați în considerare instrumente software pentru a identifica conținutul generat de AI, pentru a-i verifica acuratețea, pentru a-l evalua în ceea ce privește părtinirea sau încălcarea confidențialității și pentru a adăuga avertismente, după caz.

Articol adaptat dupa nocash.ro (19.09.2023)

Inteligența Artificială va aduce o creștere cu 14% a economiei globale până în 2030 Read More »