Ar trebui să fii capabil să explici ce și cum face

Ar trebui să fii capabil să explici ce și cum face

Deoarece complexitatea algoritmilor care prelucrează o cantitate tot mai mare de date și ia decizii din ce în ce mai diverse, întrebarea este: cum o fac?







Deoarece inteligența artificială (AI) devine mai complexă, ea devine, de asemenea, mai puțin transparentă. Algoritmii de învățare a mașinilor pot gestiona cantități uriașe de date, pot genera prognoze și pot lua decizii - fără posibilitatea de a explica oamenilor ce face de fapt. Întrebarea dacă ar trebui să solicite o justificare a acestor acțiuni, ținând seama de consecințele potențiale - de exemplu, atunci când este vorba de muncă sau de a urmări - și ce măsuri de control vor ajuta la sdelatAI mai transparente, ușor de înțeles și responsabil. Matthew Hutson (Matthew Hutson), membru al Științei. Am vorbit cu Sandra Wachter (SandraWachter), specializat în probleme de etică care se ocupă cu datele de la Universitatea din Oxford, Marea Britanie, și Institutul de Alan Turing.

- În ce domenii este necesară transparența?

- Algoritmul vă poate face o slujbă foarte plictisitoare, este eficient, nu oboseste și adesea poate lua decizii mai corecte decât o persoană. Dar este nevoie de transparență în cazul în care tehnologia are un impact semnificativ asupra noastră. Algoritmii decid dacă oamenii sunt candidați potriviți pentru obținerea de credite ipotecare, împrumuturi sau de asigurare, determinarea ratelor dobânzilor etc. Ele iau decizii cu privire la angajarea și, uneori, la soarta participanților. Înapoi în anii 1970, Școala Medicală St. George din Londra a dezvoltat software pentru screening-ul inițial al solicitanților - și a fost prezentat mai târziu. că algoritmii în practică discriminează pe baza rasei și a genului.

Judecătorii și polițiștii folosesc algoritmi pentru a transmite propoziții, pentru a acorda parole și pentru munca preventivă a poliției. Anul trecut, a raportat ProPublica. că un program popular numit COMPAS a supraestimat riscurile de recidivă a inculpaților negri. Robotica și sistemele autonome pot fi utilizate pentru chirurgie, îngrijire, transport și justiție penală. Trebuie să avem dreptul de a evalua acuratețea și logica acestor decizii.







- Ce fac deja autoritățile de reglementare în acest sens?

- Autoritățile de reglementare din întreaga lume discută și rezolvă aceste probleme, dar uneori trebuie să satisfacă interesele concurente. Pe de o parte, sectorul public ar trebui să asigure funcționarea în siguranță a algoritmilor, AI și robotică și să se asigure că aceste sisteme nu vor face discriminări sau ar prejudicia în alt mod pe oameni. Pe de altă parte, reglementarea care impune transparență poate descuraja inovația și cercetarea și poate afecta negativ interesele de afaceri, cum ar fi secrete comerciale.

Regulamentul poate crea probleme în sine dacă, de la bun început, cerințele nu sunt clar definite sau dacă necesită ceea ce este tehnic imposibil de implementat. Unii oameni din comunitatea AI știu că nu puteți explica întotdeauna munca AI, deoarece chiar designerii de sisteme nu înțeleg cum funcționează. Cei care au făcut AlphaGo [programul care a bătut cel mai bun jucător din lume pe drum. - științifică Rusia], nu știa cum a venit algoritmul cu propriile sale mișcări.

- Există vreo diferență între acțiunile autorităților de reglementare americane și europene?

- SUA aderă la o abordare mai ușoară, la autoreglementare. Actuala politică se concentrează mai mult pe educația cercetătorilor și pe codurile voluntare de acțiune pentru sectorul privat. Acest lucru poate fi rezultatul convingerii că, dacă ajustați prea mult, acest lucru poate afecta în mod negativ cercetarea, inovația și creșterea economică.

- A fost suficient luată în considerare faptul că factorii de decizie sunt, de asemenea, foarte "cutii negre"?

- Da, oamenii au prejudicii care duc la decizii discriminatorii și de multe ori nu știm când și de ce oamenii sunt părtinitoare. Cu învățarea în mașină, avem potențialul de a lua decizii mai puțin părtinitoare. Dar algoritmii care sunt instruiți în susținerea datelor "prejudiciați" și reproduc aceste prejudecăți și chiar dezvoltă noi.

- Este posibil să dai un exemplu?

În alte cazuri, vorbim despre prejudecăți mai puțin evidente la prima vedere. Există un exemplu clasic (ipotetic). Persoanele cu autovehicule roșii ar putea fi forțate să plătească prime mai mari - și aceasta nu este o discriminare în raport cu acest grup, dar poate avea consecințe prost concepute. Mașinile sport sunt de multe ori de culoare roșie, iar oamenii care cumpără mașini sport, poate fi de multe ori atribuite macho, care sunt predispuse la stilul de conducere periculoase și, prin urmare, mai multe sanse de a intra în accidente. În consecință, dacă sunt obligați să plătească mai mult pentru asigurare, ele sunt corecte. Dar, în cazul în care mașinile roșii mai des afectate mai probabil într-un accident și apoi vândute, persoanele cu venituri mai puțin de unică folosință sunt mai susceptibile de a merge, de asemenea, pe ele - și, de asemenea, să plătească prime mai mari. Prin urmare, datele pe care le folosim singure nu este suficientă pentru a determina logica care are un efect discriminatoriu.

Dar sunt sigur că putem dezvolta instrumente mai eficiente pentru a identifica prejudecățile și modalitățile de a le elimina.







Trimiteți-le prietenilor: