Cum să creați un robot etic, o știință pentru toți în cuvinte simple

Desigur, în stabilirea lui Tay nu a fost stabilită o moralitate absolută. Cu toate acestea, multe alte sisteme de inteligență artificială sunt implicate în realizarea unor activități care oferă consecințe etice neechivoce.







Pe măsură ce apar roboți mai sofisticați, procesul de luare a deciziilor devine și mai dificil. Totuși, în acest caz, se pune întrebarea cum să programați roboții să înțeleagă moralitatea și să aibă încredere în ei cu o soluție la dilemele morale.

Cum se creează un mecanism etic.
În general, în crearea unui robot etic, există două abordări. Primul este de a determina o lege morală specifică (de exemplu, de a multiplica fericirea), de a scrie cod pentru o lege similară și de a crea un robot care urmărește strict codul. Cu toate acestea, complexitatea acestei abordări este modul de alegere a regulii etice adecvate. La fiecare lege morală, chiar și ceea ce a fost deja menționat mai sus și pare simplu, există o multitudine de excepții și contra-exemple. De exemplu, dacă un robot încearcă să maximizeze fericirea prin îndepărtarea organelor unei singure persoane pentru a salva viețile a cinci persoane?

"Problemele moralității în majoritatea cazurilor sunt vagi", spune Ronald Arkin, profesor și director al Laboratorului de Robotică Mobilă de la Universitatea Tehnologică din Giorgia.
„Ca ființe umane, noi încă pariu pe acel sistem de valori morale, care ar trebui să fie utilizat: trebuie aplicat în mod consecvent - principiul pragmatic al“ „sau abordarea etică kantiană bazată pe ideea drepturilor omului“ scopul scuză mijloacele

Și nu este doar o chestiune de argumentare până când găsim răspunsul potrivit. Patrick Lin, directorul echipei de științe etice și emergente de la Universitatea Politehnică din California, afirmă că etica nu poate avea o coerență internă, ceea ce face imposibilă restrângerea acesteia la programe. "Întregul sistem poate să se prăbușească în rezultatul coliziunii cu paradoxuri sau contradicții incomprehensibile", spune el.

A doua opțiune este de a crea un robot auto-predat și de a învăța cum să reacționeze în diferite situații, realizând astfel formarea de idei despre moralitate. Acest lucru este similar cu modul în care o persoană asimilează modele morale, dar se pune întrebarea: Sunt oamenii calificați drept cei mai buni profesori de moralitate? Doar dacă oamenii ca cei care au vorbit cu Tay, iau pentru a preda robotul, el nu va fi deosebit de sensibil la problemele de moralitate.

Într-o anumită măsură, capacitatea lui Tei de a percepe ceea ce a învățat este impresionantă, spune Arkin. Cu toate acestea, el observă că botul a fost supus "agresiunii din partea Partidului Poporului". El adaugă:

„Poti sa o faci cu unele simpleton. Sistem de auto-învățare în multe feluri, și există fraieri reale. Poți păcăli pe oricine, dar acești oameni preferă să trișeze inteligență artificială.“

Inspiră ideile în viață.
Crearea unui robot moral nu este doar o teorie abstractă; unii filozofi și experți în domeniul tehnologiei informatice fac în prezent doar asta.

Arkin de la Institutul Tehnologic din Giorgia lucrează pentru a face mașinile să respecte dreptul internațional umanitar. În astfel de cazuri, există un număr foarte mare de legi și instrucțiuni pentru mașinile dezvoltate de oameni și coordonate între țări străine. În ciuda faptului că unele cazuri sunt mai puțin clare decât altele, Arkin consideră că proiectul său va atinge obiectivul său în câteva decenii.

Munca lui se bazează în mare parte pe programare de sus în jos și mai puțin pe auto-învățare - la urma urmei, nu ar vrea să trimită pe cineva să lupte și aruncă-l astfel încât el a dat seama pe cont propriu cum să reacționeze.







Susan Anderson spune că munca lor a fost influențată de filozofii John Rawls și de. D. Ross. In timp ce lucrarile lui Rawls privind „reflexivitate de echilibru de stat“, că principiile morale pot fi extrase din deciziile etice luate în anumite situații, Ross susține că oamenii au mai multe imperative morale primare. Suntem obligați să urmăm fiecare dintre aceste imperative, însă nici unul dintre ele nu este absolut și nu depășește în mod automat pe ceilalți. Prin urmare, în situația în care apar contradicții între ele, ele trebuie să fie echilibrate și supuse comparației.

Anderson studiază roboți auto-învățați pentru a dezvolta principii pentru un sistem de îngrijire medicală pentru vârstnici. Într-unul dintre cazuri, ei au creat un sistem intelectual pentru a dezvolta un mod de acțiune etic într-o situație în care pacientul refuză tratamentul prescris. Ar trebui ca lucrătorul medical să încerce să convingă pacientul să accepte tratamentul sau nu? Aceasta implică o serie de responsabilități etice complexe, inclusiv respectarea autonomiei pacientului, posibilele prejudicii și eventualele beneficii pentru el.

Anderson a constatat că, de îndată ce robotul învață un răspuns moral la cele patru scenarii specifice, dobândește capacitatea de a face generalizări și de a lua decizia adecvată în cele 14 cazuri rămase. De aici a reușit să obțină un principiu etic:

"Trebuie să încercați să convingeți pacientul fie că este posibil să sufere, dacă nu este de acord să urmeze cursul recomandat de tratament, fie să-și piardă beneficii semnificative." Nu doar un mic beneficiu, dar semnificativ dacă nu acceptă instrucțiunile medicului.

În ciuda faptului că, în acest stadiu incipient al lucrărilor la codul robotului a fost prescris un imperativ moral - cum ar fi, de exemplu, importanța prevenirii prejudiciului - deoarece Anderson angajat în muncă, care nu conține o dimensiune morală. În schimb, sistemul intelectual a învățat chiar și aceste principii morale în cursul comunicării cu experții etici.

Ar trebui să avem încredere în roboți în materie de moralitate?
Crearea de roboți care au o anumită abilitate de a percepe moralitatea pare destul de posibilă - dar ar trebui să continuăm să le dezvoltăm? Anderson observă că într-un sens, roboții pot fi subiecți mai perfecți de luare a deciziilor morale decât de oameni.
"Oamenii sunt produsul unei selecții naturale, așa că am dezvoltat idei centrate pe sine sau cel puțin idei care se potrivesc intereselor grupului nostru, nu oricui altcuiva". Ele sunt rezultatul capacității noastre de a supraviețui ca specie ", a spus ea.

În plus, oamenii tind să facă greșeli, iar deciziile lor în materie de justiție nu sunt adevărul final.

Cu toate acestea, este puțin probabil ca roboții să fie capabili să facă față adoptării unor decizii morale complexe în viitorul apropiat. Și, bineînțeles, în timp ce suntem încă încurcați de unele probleme din sfera valorilor morale, ar fi nerezonabil să delegem autoritatea în acest domeniu la roboți. După cum subliniază Arkin, "procesul de acceptare a deciziilor morale de către oameni nu este pe deplin înțeles și, în plus, nu sa ajuns la un acord absolut în ceea ce privește acest lucru".

Anderson și ceilalți profesori cu care am vorbit, sunt de acord că mecanismele nu ar trebui să fie implicate în zone care implică contradicții morale. Și Lin adaugă că el se îndoiește dacă este etic să impună munca grea de a lua decizii morale asupra tehnologiei.
"Cum poate o persoană să crească ca persoană sau să-și dezvolte un personaj fără a folosi mușchiul său moral?" - El spune. "Imaginați-vă dacă am avea un exoskeleton, doar cu ajutorul căruia am putea să ne mișcăm, să alergăm, să trăim și să facem toate celelalte activități fizice." Ar fi cu adevărat viața mai bună dacă am încredințat activității fizice tehnologiei în loc de să își dezvolte propriile mușchi? Un mecanism de îmbunătățire a moralității.
Deși este posibil să nu dorim încă să delegem roboților o soluție la cele mai complexe dileme morale, lucrul la moralitatea lor promovează progresul în înțelegerea noastră morală.

Wallach constată că, în cartea sa „Morale Machines: Roboți învețe să distingă binele de rău“, el a prezentat ideea: același principiu, potrivit căruia calculatoarele au promovat o înțelegere filosofică a minții, se aplică roboți și la studiul eticii. Un exemplu al acestei abordări este urmărit de munca de familie Anderson pentru a stabili principiul, bazat pe sistemul inteligent de ingrijire a sanatatii dezvoltate de ei. Anderson subliniază faptul că istoria dezvoltării morale indică o clădire consens graduală - și că dezvoltarea unor principii morale pentru roboți pot contribui la îmbunătățirea raționamentului moral.

După cum spune Lin, există posibilitatea ca pur și simplu să fie imposibil să reducem procesul de luare a deciziilor etice la valorile numerice practicate de oameni - de exemplu, nu este clar cum să codiflați compasiunea sau caritatea. Cu toate acestea, el observă că principiile morale ale roboților pot fi privite ca o problemă a eticii umane. "Reflecții asupra modului în care trebuie să se conducă roboții, imaginați-vă că exersați de sine în modul în care să conduceți oamenii la el", spune el. "Acest lucru ne oferă ocazia să ne cunoaștem mai bine.







Articole similare

Trimiteți-le prietenilor: