O echipă de cercetători americani propune o soluție neașteptată pentru una dintre cele mai controversate provocări ale inteligenței artificiale: cum învățăm o mașină să ia decizii morale în trafic? Răspunsul vine din filosofia morală,și din reacțiile unor filosofi puși să judece scenarii reale de condus, relatează TechXplore.
Urmărește cele mai noi producții video TechRider.ro
- articolul continuă mai jos -
Un studiu recent publicat în revista Frontiers in Psychology descrie o tehnică nouă, care ar putea oferi datele necesare pentru a antrena sistemele de inteligență artificială din vehiculele autonome să ia decizii similare cu cele ale oamenilor. Testul a fost conceput de o echipă de la Universitatea de Stat din Carolina de Nord și a fost validat în fața unui public neobișnuit: filosofi cu studii avansate în etică.
Nu accidentele grave, ci deciziile mărunte
„Foarte puțini oameni se urcă la volan cu intenția de a face rău”, explică Veljko Dubljević, autor principal al studiului. „Totuși, accidentele apar adesea din alegeri mărunte: să mergi cu cinci mile mai mult decât limita legală, să nu oprești complet la semnul STOP. Ce facem, de fapt, când luăm astfel de decizii? Și cât de morale sunt ele?”
Pentru a analiza aceste dileme, cercetătorii au folosit modelul „Agent – Faptă – Consecință” (ADC), un cadru teoretic din psihologia morală care afirmă că oamenii iau în calcul trei elemente când evaluează o acțiune: intențiile persoanei care acționează (agentul), acțiunea în sine (fapta) și rezultatul (consecința).
Pe baza acestui model, echipa a creat o serie de scenarii rutiere inspirate din situații reale. Participanții au fost rugați să evalueze comportamentul șoferilor implicați și să decidă dacă acțiunile acestora sunt morale sau nu.
Filosofii, de acord: moralitatea în trafic e surprinzător de clară
Pentru a testa validitatea metodei, echipa a apelat la 274 de filosofi cu studii postuniversitare. „Filosofii au opinii foarte diferite despre ce înseamnă moralitatea. Un utilitarist va căuta rezultatul cel mai bun pentru toți, în timp ce un deontolog va pune accentul pe respectarea regulilor, indiferent de consecințe”, explică Dubljević.
Cu toate acestea, rezultatele au fost surprinzător de unitare: indiferent de școala de gândire, participanții au fost de acord în privința evaluărilor morale din trafic. Această coerență oferă o bază solidă pentru folosirea datelor în antrenarea inteligenței artificiale.
Mașinile autonome pot învăța din judecata umană
„Este un pas important. Faptul că filosofi cu abordări diferite ajung la aceleași concluzii în contexte de trafic ne arată că putem generaliza modelul și îl putem implementa în sistemele autonome”, susține Dubljević.
Următoarea etapă a cercetării va fi extinderea testelor la populații diverse, în mai multe limbi și culturi, pentru a verifica aplicabilitatea modelului la scară globală.
Pe fondul dezvoltării rapide a mașinilor autonome și al dezbaterilor tot mai intense despre responsabilitatea morală a inteligenței artificiale, această cercetare propune o abordare practică și riguroasă pentru un domeniu care părea până acum de neatins: etica la volan — pentru mașini fără șofer.